共计 3641 个字符,预计需要花费 10 分钟才能阅读完成。
原作者:Elliot Leavy
文章出处:https://venturebeat.com/ai/year-of-the-dragon-we-have-entered-the-ai-age/
编译:裴先生笔记
如果您希望世界在2024年就会克服 AI 狂热,那您将大错特错。硬件和软件的进步(无处不在)正在为生成式AI 的动态应用程序敞开大门,这表明2023年是我们才真正开始触及表面的那一年。
今年——中国十二生肖中的龙年——将在所有领域见证生成式AI广泛而战略性的整合。随着风险得到评估,策略也开始成形,企业准备利用生成式 AI,不仅仅作为一种新技术,而且作为其运营和战略框架的核心组成部分。简而言之,CEO 和商界领袖们在认识到生成式 AI 的潜力和必要性后,如今正在积极寻求将这些技术嵌入到其流程中。
由此展现的情形是,通用人工智能不仅成为一种选择,而且成为创新、效率和竞争优势的一大基本动力。这一变革性的转变标志着从试探性探索到自信、知情应用的转变,意味着2024年是通人工智能从新兴趋势转变为基本商业实践的一年。
数量和多样性
一个关键的方面是,人们越来越了解基因人工智能如何使应用、创意和内容的数量和种类不断增加。
人工智能生成的内容数量惊人,其影响我们才刚刚开始发现。由于这些内容的数量巨大(自2022年以来,人工智能用户总共创建了超过150亿张图片,而这一数字以前需要人类花费150年的时间才能生成),历史学家将不得不把2023年后的互联网视为与以前完全不同的东西,就像原子弹使放射性碳年代测定发生倒退一样。
然而,无论人工智能对互联网有什么影响,对于企业来说,这种扩展正在提升所有领域的所有参与者的标准,并预示着一个关键时刻,如果不参与这项技术,可能不仅会错失良机,还会在竞争中处于不利地位。
锯齿边界
2023年,我们了解到生成式ai不仅提高了各行各业的标准,还提高了员工的能力。在 YouGov 去年的一项调查中,90%的员工表示,人工智能正在提高他们的工作效率。四分之一的受访者每天都在使用人工智能(73%的员工每周至少使用一次人工智能)。
另一项研究发现,通过适当的培训,员工在人工智能的帮助下完成12%的任务的速度提高了25%,整体工作质量提高了40%,其中技能水平较低的员工的收益最大。然而,对于人工智能能力之外的任务,员工提出正确解决方案的可能性要低19%。
这种两面性催生了专家们所说的人工智能能力的”锯齿边界”。其原理如下:在光谱的一端,我们见证了人工智能的非凡能力–曾经似乎是机器无法完成的任务,如今却能精准高效地执行。
然而,在另一方面,人工智能在一些任务中却步履维艰,难以与人类的直觉和适应能力相匹敌。这些领域的特点是细微差别、上下文和复杂的决策–在这些领域,机器的二元逻辑(目前)遇到了对手。
更实惠的人工智能
今年,随着企业开始探索和掌握崎岖的前沿领域,我们将看到基因人工智能项目开始落地并实现常态化。这种采用的基础是,由于硅优化的进步,训练基础大型语言模型(LLM)的成本下降(预计每两年下降一半)。
随着需求的增加和全球短缺,人工智能芯片市场有望在2024年变得更加经济实惠,因为像英伟达(Nvidia)这样的行业领导者的替代品正在崭露头角。
同样,新的微调方法(如Self-Play fIne-tuNing(SPIN))无需额外的人工标注数据,就能从弱LLM中培育出强LLM,从而利用合成数据,以更少的人工输入完成更多工作。
进入“模型宇宙”
成本的降低为更多公司开发和实施自己的 LLM 打开了大门。其影响是广泛而多样的,但清晰的轨迹是,未来几年基于 LLM 的创新应用将激增
同样,在2024年,我们将开始看到从主要依赖云的模式向本地执行的人工智能转变。这一演变的部分原因是苹果硅等硬件的进步,但它也利用了日常移动设备中尚未开发的原始 CPU 能力潜力。
同样,在商业领域,小型语言模型(SLM)也将在大中型企业中越来越流行,因为它们能满足更多特定的小众需求。顾名思义,SLM 比 LLM 重量更轻,是实时应用和集成到各种平台的理想选择。
因此,LLMs 是在大量不同数据的基础上进行训练的,而 SLMs 则是在更多特定领域数据(通常来自企业内部)的基础上进行训练的,这使它们适合特定行业或使用案例,同时保证了相关性和隐私性。
向大型视觉模型(LVMs)转变
进入2024年,焦点也将从 LLM 转向大型视觉模型(LVM),尤其是特定领域的模型,它们将彻底改变视觉数据的处理方式。
在互联网文本上训练的 LLM 能够很好地适应专有文档,而 LVM 则面临着一个独特的挑战:互联网图像主要以备忘录、猫和自拍为特征,与制造业或生命科学等领域使用的专业图像有很大不同。因此,在互联网图像上训练的通用 LVM 可能无法有效识别专业领域中的显著特征。
然而,针对特定图像领域(如半导体制造或病理学)量身定制的 LVM 却能显示出明显更好的效果。研究表明,使用约10万张未标注的图像将 LVM 适应于特定领域,可以显著减少对标注数据的需求,从而提高性能水平。这些模型与一般的 LVM 不同,是为特定业务领域量身定制的,在缺陷检测或物体定位等计算机视觉任务中表现出色。
在其他领域,我们将开始看到企业采用大型图形模型(LGM)。这些模型擅长处理通常存在于电子表格或数据库中的表格数据。它们的突出特点是能够分析时间序列数据,为理解业务环境中常见的顺序数据提供了全新视角。这种能力至关重要,因为绝大多数企业数据都属于这些类别,而包括 LLM 在内的现有人工智能模型尚未充分应对这一挑战。
道德困境
当然,这些发展必须以严格的伦理考虑为基础。普遍的共识是,我们对以往的通用技术(具有广泛应用、对人类活动的不同领域产生深远影响并从根本上改变经济和社会的技术)的认识是错误的。智能手机和社交媒体等工具在带来巨大好处的同时,也带来了负面的外部效应,无论我们是否直接参与其中,这些负面效应都渗透到了我们生活的方方面面。
对于人工智能,监管被认为是最重要的,以确保过去的错误不再重演。然而,监管可能会失败、扼杀创新或需要时间才能生效,因此我们会看到反对政府的组织领导监管工作。
去年引入的人工智能基因中最广为人知的道德泥潭或许就是版权问题。随着人工智能技术的飞速发展,它们带来了有关知识产权的紧迫问题。当然,问题的关键在于人工智能生成的内容(通常借鉴人类创作的现有作品进行训练)是否以及如何受版权法的约束。
人工智能与版权之间的矛盾之所以存在,是因为版权法的制定是为了防止人们非法使用他人的知识产权。阅读文章或文本以获得灵感是允许的,但复制则是不允许的。如果一个人阅读了莎士比亚的全部作品并创作了自己的版本,这就被认为是灵感,然而挑战在于,人工智能可以消耗无限量的数据,而不是受人类限制的数据。
版权/抄袭之争只是不断变化的媒体的一个方面。2024年,我们将看到具有里程碑意义、开创先例的案件的结果,如《纽约时报》诉 OpenAI 案(但目前还不清楚该案是否会开庭审理,或者仅仅是出版商讨价还价的工具),并见证媒体格局如何适应新的人工智能现实。
高度仿制泛滥
就地缘政治而言,本年度的人工智能故事将不可避免地与人类历史上最大的选举年交织在一起。今年,全球一半以上的人口将前往投票站投票,包括美国、台湾、印度、巴基斯坦、南非和南苏丹在内的国家都将举行总统、议会和全民公决投票。
1月份投票的孟加拉国已经出现了此类干扰。一些亲政府的媒体机构和有影响力的人士积极宣传使用低成本人工智能工具制作的虚假信息。
有一次,一段 deepfake 视频(随后被删除)显示,一名反对派人士似乎收回了对加沙人民的支持,而在一个大多数穆斯林都强烈声援巴勒斯坦人的国家,这种立场可能是有害的。
人工智能图像的威胁并非空穴来风。最近的研究表明,旨在欺骗人工智能图像识别的微妙变化也会影响人类的感知。这一发现发表在《自然-通讯》(Nature Communications)上,强调了人类与机器视觉之间的相似之处–但更重要的是,它凸显了就对抗性图像对人类和人工智能系统的影响开展更多研究的必要性。这些实验表明,即使是人眼无法察觉的微小扰动,也会使人类的判断产生偏差,这与人工智能模型做出的决定类似。
虽然全球正在围绕水印(或内容凭证)的概念达成共识,将其作为区分真实内容和合成内容的一种手段,但这一解决方案仍然充满了自身的复杂性:检测是否具有普遍性?如果是,我们如何防止人们滥用它–在并非合成的作品上贴上合成的标签?另一方面,如果不让每个人都能检测到此类媒体,就会把相当大的权力让给那些拥有这种权力的人。我们会再一次问自己:谁能决定什么是真实?谁能决定什么是真实?
随着全球公众信任度持续低迷,2024年将是世界上最重要的选举年,也是我们这个时代最具决定性的技术交汇的一年。无论结果好坏,2024年都将是人工智能真正得到实际应用的一年。抓紧了
埃利奥特-利维(Elliot Leavy)是欧洲首家生成式人工智能咨询公司 ACQUAINTED 的创始人。